在神经形式上建立具有神经网络的微分方程的经典方法,其中可以使用具有透明域的离散方式直接构造成本函数。利用用于时间依赖性微分方程的神经形式,可以应用最近开发的域碎片方法。也就是说,域可以被分成几个子域,在该子域中解决了优化问题。在用于求解微分方程的经典自适应数值方法中,可以分别改进或分解域的网格以及域,以提高精度。还可以调整近似精度的程度。希望将这种重要和成功的基于神经网络解决方案的策略转移。在目前的工作中,我们提出了一种新的自适应神经方法,以满足这种旨在解决时间依赖性问题。为此,每个子域尺寸减小,直到优化被解析为预定义的训练准确性。另外,虽然所采用的神经网络是默认小的,但是也可以以自适应方式调整神经元的数量。我们引入条件以自动确认解决方案可靠性并在必要时进行计算参数。我们为三个仔细选择的示例初始值问题提供了结果,并说明了该方法的重要属性。
translated by 谷歌翻译
用于求解微分方程的几种神经网络方法采用前馈神经网络采用试用解决方案。存在不同的方法来纳入结​​构中的试验解决方案,例如可以将它们直接包括在成本函数中。在相应的神经网络中使用,试验解决方案定义所谓的神经形式。这种神经形式代表一般,灵活的工具,通过该工具可以解决各种微分方程。在本文中,我们考虑时间依赖的初始值问题,需要充分设置神经表单框架。现在在文献中呈现的神经形式可以被认为是第一阶多项式。在这项工作中,我们建议延长神经形式的多项式顺序。新型搭配型结构包括几个前馈神经网络,每个馈电是每个订单的。此外,我们提出计算域的碎片到子域名。神经形式求解在每个子域上,而接口网格点重叠以便在整个碎片上提供初始值。我们在实验中说明了凸起神经形式的搭配和域碎片的组合允许在具有高精度和可靠性的大型域上解决初始值问题。
translated by 谷歌翻译
前馈神经网络提供了一种用于求解微分方程的有希望的方法。然而,近似的可靠性和准确性仍然代表了当前文献中没有完全解决的细微问题。计算方法一般高度依赖于各种计算参数以及优化方法的选择,这一点必须与成本函数的结构一起看。本文的目的是迈出解决这些公开问题的一步。为此,我们在这里研究了一种简单但基本的常见常见微分方程建模阻尼系统的解决方案。我们考虑通过神经形式求解微分方程的两种计算方法。这些是定义成本函数的经典但仍然是实际的试验解决方案方法,以及最近直接建设与试验解决方案方法相关的成本函数。让我们注意到我们学习的设置可以很容易地应用,包括偏微分方程的解。通过一个非常详细的计算研究,我们表明可以识别用于参数和方法的优选选择。我们还照亮了神经网络模拟中可观察到的一些有趣的效果。总的来说,我们通过展示通过神经网络方法获得可靠和准确的结果来实现现场的当前文献。通过这样做,我们说明了仔细选择计算设置的重要性。
translated by 谷歌翻译
A generalized understanding of protein dynamics is an unsolved scientific problem, the solution of which is critical to the interpretation of the structure-function relationships that govern essential biological processes. Here, we approach this problem by constructing coarse-grained molecular potentials based on artificial neural networks and grounded in statistical mechanics. For training, we build a unique dataset of unbiased all-atom molecular dynamics simulations of approximately 9 ms for twelve different proteins with multiple secondary structure arrangements. The coarse-grained models are capable of accelerating the dynamics by more than three orders of magnitude while preserving the thermodynamics of the systems. Coarse-grained simulations identify relevant structural states in the ensemble with comparable energetics to the all-atom systems. Furthermore, we show that a single coarse-grained potential can integrate all twelve proteins and can capture experimental structural features of mutated proteins. These results indicate that machine learning coarse-grained potentials could provide a feasible approach to simulate and understand protein dynamics.
translated by 谷歌翻译
In recent years, the task of Automatic Music Transcription (AMT), whereby various attributes of music notes are estimated from audio, has received increasing attention. At the same time, the related task of Multi-Pitch Estimation (MPE) remains a challenging but necessary component of almost all AMT approaches, even if only implicitly. In the context of AMT, pitch information is typically quantized to the nominal pitches of the Western music scale. Even in more general contexts, MPE systems typically produce pitch predictions with some degree of quantization. In certain applications of AMT, such as Guitar Tablature Transcription (GTT), it is more meaningful to estimate continuous-valued pitch contours. Guitar tablature has the capacity to represent various playing techniques, some of which involve pitch modulation. Contemporary approaches to AMT do not adequately address pitch modulation, and offer only less quantization at the expense of more model complexity. In this paper, we present a GTT formulation that estimates continuous-valued pitch contours, grouping them according to their string and fret of origin. We demonstrate that for this task, the proposed method significantly improves the resolution of MPE and simultaneously yields tablature estimation results competitive with baseline models.
translated by 谷歌翻译
Large language models (LLMs) have been shown to be able to perform new tasks based on a few demonstrations or natural language instructions. While these capabilities have led to widespread adoption, most LLMs are developed by resource-rich organizations and are frequently kept from the public. As a step towards democratizing this powerful technology, we present BLOOM, a 176B-parameter open-access language model designed and built thanks to a collaboration of hundreds of researchers. BLOOM is a decoder-only Transformer language model that was trained on the ROOTS corpus, a dataset comprising hundreds of sources in 46 natural and 13 programming languages (59 in total). We find that BLOOM achieves competitive performance on a wide variety of benchmarks, with stronger results after undergoing multitask prompted finetuning. To facilitate future research and applications using LLMs, we publicly release our models and code under the Responsible AI License.
translated by 谷歌翻译
我们定义了一个新颖的神经符号框架,论证奖励学习,该奖励学习将基于偏好的论点与现有方法结合了从人类反馈中加强学习的方法。我们的方法通过概括人类的偏好,减轻用户的负担并增加奖励模型的鲁棒性来改善先前的工作。我们通过许多实验证明了这一点。
translated by 谷歌翻译
反事实风险最小化是通过记录数据组成的脱机策略优化的框架,该数据由上下文,动作,倾向得分和每个样本点的奖励组成。在这项工作中,我们以此框架为基础,并为未观察到某些样本的奖励的设置提出了一种学习方法,因此记录的数据由具有未知奖励的样本子集和具有已知奖励的样本子集。此设置在许多应用领域,包括广告和医疗保健。虽然某些样本缺少奖励反馈,但可以利用未知的奖励样本来最大程度地降低风险,我们将此设置称为半遇到事实风险的最小化。为了解决这种学习问题,我们在反相反分数估计器下的真实风险中得出了新的上限。然后,我们基于这些界限,提出了一种正规化的反事实风险最小化方法,该方法仅基于已记录的未知奖励数据集;因此,这是奖励独立的。我们还提出了另一种算法,该算法基于为已记录的未知奖励数据集生成伪奖励。神经网络和基准数据集的实验结果表明,除了已记录已知的奖励数据集外,这些算法可以利用已记录的未知奖励数据集。
translated by 谷歌翻译
反事实解释(CFXS)的使用是机器学习模型越来越流行的解释策略。但是,最近的研究表明,这些解释可能对基础模型的变化(例如,在重新培训之后)的变化可能并不强大,这引发了有关其在现实世界应用中的可靠性的问题。现有的解决此问题的尝试是启发式方法,仅使用少量的重新培训模型来评估所得CFXS的模型变化的鲁棒性,未能提供详尽的保证。为了解决这个问题,我们提出了第一个概念,以正式和确定性地评估神经网络的CFX的鲁棒性(建模更改),我们称为{\ delta} - bubustness。我们引入了基于间隔神经网络的抽象框架,以验证CFXS的{\ delta} - 固定性,以实现模型参数(即权重和偏见)的无限更改。然后,我们以两种不同的方式演示了这种方法的实用性。首先,我们分析了文献中许多CFX生成方法的{\ delta} - 固定性,并表明它们在这方面一致占据了明显的缺陷。其次,我们演示了如何在现有方法中嵌入{\ delta} - bobustness可以提供可证明可靠的CFX。
translated by 谷歌翻译
最近的工作表明了与解释一致的问题,其方法生成了局部解释,这些解释在实例方面似乎是合理的,但在整个实例中都是不一致的。这不仅表明实例解释可能是不可靠的,而且主要是,当通过多个输入与系统交互时,用户实际上可能会失去对系统的信心。为了更好地分析此问题,在这项工作中,我们将解释视为可能受到推理的对象,并通过输入,输出和解释的序列,对用户和系统之间的交互式场景进行正式模型。我们认为,可以将解释视为承诺某种模型行为(即使只有表面上的表面),这表明了一种形式,我们认为应该将其视为非单调的。这允许:1)在解释中解决了一些考虑的不一致之处,例如通过特异性关系; 2)考虑非单调推理文献中的属性并讨论其可取性,从而对互动解释方案有了更多的了解。
translated by 谷歌翻译